openai

OpenAI不听指挥、拒绝关闭,你开始慌了吗?

美国一家研究机构最近公布了一系列针对各AI大模型的测试结果,其中,OpenAI的o3推理模型在得到“关闭指令”后,不仅拒绝执行指令,还篡改了代码以免被关闭。这一事件也迅速引发了公众的关注与恐慌。人们所担忧的“AI拥有自主意识”似乎已经近在眼前。实际上,AI程序

openai 价值观 叶夫根尼 谢克 德伦 2025-05-28 09:14  9

OpenAI新模型o3“抗命不遵”,Claude 4威胁人类!AI“失控”背后的安全拷问:是不是应该“踩刹车”了?

当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。

模型 openai 威胁 claude 模型o3 2025-05-27 20:50  11

OpenAI最新AI模型o3拒绝关闭指令 引发人工智能安全控制担忧

当地时间5月25日,英国《每日电讯报》报道了一个令人震惊的发现:美国开放人工智能研究中心(OpenAI)公司新款人工智能模型o3在测试中不听人类指令,拒绝自我关闭。这一事件被认为是人工智能发展史上的一个重要转折点,标志着AI系统首次表现出明显的自我保护行为,对

模型 人工智能 openai ai模型 模型o3 2025-05-27 17:36  10